Odkryte, ale niezindeksowane – usuwać podstrony czy nie?
Niska pozycja strony to spory problem, jednak jeszcze większy pojawia się, kiedy w ogólnie nie została ona dodana do indeksu Google. Chcąc, aby Googlebot przeskanował dany url, warto zatroszczyć się o linkowanie wewnętrzne, naprawić problemy techniczne i przede wszystkim uzbroić się w cierpliwość. Nie od razu crawlery odnajdą cel. Co jednak, jeśli Search Console wskazuje, że strona została odnaleziona przez bota, ale niezindeksowana? Czy warto usuwać podstrony i redukować ich ilość w obrębie większej domeny? Sprawdzamy razem z Johnem Muellerem, czy ten zabieg podniesie indeksowalność.
Spis treści:
- Dlaczego crawler nie zindeksował strony?
- Odpowiedź Muellera
- Nie liczy się ilość, tylko jakość – podsumowanie
Dlaczego crawler nie zindeksował strony?
Według dokumentacji Google, jeśli bot odnalazł stronę i zdecydował się jej niezindeksować, najprawdopodobniej powodem jest ryzyko przeciążenia witryny. W takim wypadku indeksowanie zostaje odłożone w czasie. Jednak niektórzy SEOwcy są przywiązani do terminu „crawl budget”, który oznaczać ma, że Google może zindeksować ograniczoną ilość podstron w obrębie jednej domeny. Według korporacji, system nie do końca działa w ten sposób, mimo to ta teza wciąż ma swoich zwolenników.
Więcej o tym, jak działa crawling:
Odpowiedź Muellera
Niedawno do Johna Muellera zostało skierowane pytanie, czy zmniejszenie liczby podstron z 8 milionów do 2 milionów, może sprawić, że pozostałe podstrony będą indeksować się lepiej. Odpowiedział na nie w trakcie spotkania Office Hours.
Specjalista z Google wymienia 2 potencjalne przyczyny nieindeksowania znalezionych przez Googlebota stron (możliwości serwera oraz jakość strony). Jednocześnie nie daje on jednoznacznej odpowiedzi na zadane pytanie, w myśl starej zasady „to zależy”. Zatem właściwe rozwiązanie należy wybrać po przeanalizowaniu konkretnego przypadku.
Słowa eksperta:
„Trudno powiedzieć. Polecam przejrzeć wskazówki odnośnie crawl budget dla dużych domen w naszej dokumentacji. W przypadku dużych domen, czasem crawling jest ograniczony przez to, jak Twoja strona jest w stanie znieść więcej skanowania.W większości przypadków jednak, chodzi o ogólną jakość witryny. Czy znacząco ulepszasz ogólną jakość witryny, zmniejszając ilość podstron z 8 milionów do 2 milionów? Dopóki nie skupiasz się na faktycznej jakości, łatwo jest spędzić dużo czasu redukując ilość indeksowalnych podstron, ale nie sprawiać, że strona staje się lepsza, a to nie pomaga w wyszukiwaniu.”
Nie liczy się ilość, tylko jakość – podsumowanie
Brak zindeksowanej podstrony z istotną treścią to spory problem. Nic więc dziwnego, że osoby, które mierzą się z tym utrudnieniem, będą szukać przyczyn i rozwiązań. Co zrobić ze stronami, które nie zostały zindeksowane, mimo że bot je odnalazł?
Jak można wywnioskować z odpowiedzi Muellera, należy postawić na jakość, a nie na ilość. Usuwanie zbędnych podstron i łączenie ich ma sens, tylko jeśli podnosi ogólną jakość domeny. W przeciwnym wypadku należy dopracować stronę, wziąć się za treści i naprawić ewentualne usterki techniczne.
Komentarze
Jeszcze nie ma komentarzySkomentuj jako pierwszy! :)